【源头活水】宽度学习:原理与实现
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
地址:https://www.zhihu.com/people/zhang-tian-yi-8-37
宽度学习是一种不依赖深度结构的神经网络结构,其优秀的运算速度和简洁的结构可以说是机器学习界的一股清流。本文将从原理和代码实现的角度对其进行分析和梳理,由于笔者水平有限,不足之处还望各位楷正。
本文的变量表示和公式推导可能与陈老师论文中有所出入,这是因为本文是根据陈老师的开源代码进行的推导,而不是对论文中的内容。这里如有错误欢迎指正。
01
宽度网络的实质是一种随机向量函数链接神经网络(random vector functional link neural network,RVFLNN)。与CNN不同,该网络并不通过反向传递改变特征提取器的核,而是通过求伪逆计算每个特征节点和增强节点的权重。这就好比我们找来100个不懂数学的孩子,他们对于任何问题(如1+1=?)的回答都是0-9中的任意一个数字,但这些孩子有自己的偏好,也就是说,他们回答的随机分布不同。网络的目的就是如何通过这100个孩子的回答预测出所提问题的答案。
这里有几个重要的名词和变量将在后面的叙述中经常用到:
02
宽度学习的核心就是求特征节点和增强节点到目标值的伪逆。在这里,特征节点和增强节点相对应的是神经网络的输入,求得的逆矩阵相当于神经网络的权值。那么首先,我们需要建立输入数据到特征节点的映射。
首先,对
接着,对
然后,开始为每个窗口生成特征节点:
1. 生成随机权重矩阵
2. 将
3.
这里笔者认为是对每个样本的特征进行了一次权值随机的卷积和偏置,得到了新的特征。如果我们把A1和H1展开表示就会发现对于每个样本
4. 对A1进行行归一化;
5. 对A1进行稀疏表示(sparse autoencoder);
这也是整个特征节点生成中比较核心的问题之一,对于稀疏表示的原因,陈老师在论文中是这样解释的:
To overcome the randomness nature, the sparse autoencoder could be regarded as an important tool to slightly fine-tune the random features to a set of sparse and compact features. Specifically, sparse feature learning models have been attractive that could explore essential characterization.
一句话,为了解决网络随机性所带来的问题。笔者认为,稀疏表示可以有效减少新生成特征节点的线性相关程度,使得新生成的节点不至于过于“浪费”。
论文中采用了lasso方法来解决稀疏表示过程中的优化问题。此时我们有新生成的随机特征向量
6. 最终生成一个窗口得特征节点
对于
03
宽度网络的另一特性,就是可以利用增强节点对随机的特征节点进行补充。通过上文我们发现,特征节点都是线性的,而引入增强节点的目的就是为了增加网络中的非线性因素。
1. 与特征节点一样,首先对特征节点矩阵
2. 对增强节点进行激活:
这里的
3. 最终生成网络的输入
与特征节点相比,增强节点并不与要稀疏表示,也不需要进行窗口迭代。虽然正交化的迭代也会耗费一些计算时间,但增加增强节点所需的计算时间,往往少于增加特征节点。网络最终的输入
04
神经网络的目的就是要求得输入到输出的映射。拿分类问题来说,当输入量为X,标签向量为Y时,如果能得到
其实,实际实现的方式很简单,假设 xx为网络的输出值,即
05
训练完成之后,需要保存的参数其实只有W和ps,所以相比于深度学习,网络参数量很少。通过参数的维度可以发现,W是一个维度为
06
分析完这个算法,我的第一感觉是思路清晰简洁又让人眼前一亮。之前学习深度学习时,感觉近几年算法越来越复杂,各种创新层出不穷,但鲜有在网络结构上的颠覆性创新。虽然说目前BLS作为一种挑战DLS的结构,还略显稚嫩,但我相信好的方法一定是简明而优美的,数学的本质亦是如此。
放一些很好的参考资料连接:
1. 澳门大学陈俊龙:无需深度结构的高效增量学习系统
https://www.leiphone.com/news/201801/ao0L64n4J2CXSpg7.html
2. Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture 陈俊龙老师IEEE NNLS 论文
https://ieeexplore.ieee.org/document/7987745
3. Home-Broadlearning BLS主页
https://broadlearning.ai/
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“源头活水”历史文章
图神经网络预训练模型
Rethinking Self-Attention in Transformer Models
测试集没标签,可以拿来测模型吗?
图神经网络GraphSage:远亲不如近邻
图神经网络笔记-GraphSage的采样聚合
用概率分布评估检测框质量的 Generalized Focal Loss V2
YOLO之外的另一选择,手机端97FPS的Anchor-Free目标检测模型NanoDet现已开源~
大白话 Generalized Focal Loss V2
impersonator-你的舞蹈我来跳
Mixtext 半监督分类
“她”教你从失败中学习
丢弃Transformer,FCN也可以实现E2E检测
目标检测新范式!港大同济伯克利提出Sparse R-CNN
Meta Transfer Learning for Few Shot Learning
浅谈多任务与联邦学习
更多源头活水专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!